AI资讯新闻榜单内容搜索- Transform

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  Transform
RECURRENTGPT: 交互式生成(任意的)长文本

RECURRENTGPT: 交互式生成(任意的)长文本

RECURRENTGPT: 交互式生成(任意的)长文本

Transformer的固定尺寸上下文使得GPT模型无法生成任意长的文本。在本文中,我们介绍了RECURRENTGPT,一个基于语言的模拟RNN中的递归机制。

来自主题: AI技术研报
4298 点击    2024-02-06 12:51
MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

状态空间模型(SSM)是近来一种备受关注的 Transformer 替代技术,其优势是能在长上下文任务上实现线性时间的推理、并行化训练和强大的性能。而基于选择性 SSM 和硬件感知型设计的 Mamba 更是表现出色,成为了基于注意力的 Transformer 架构的一大有力替代架构。

来自主题: AI技术研报
10224 点击    2024-01-23 15:09
专访 VideoPoet 作者:视频模型技术会收敛,LLM 将取代diffusion带来真正的视觉智能

专访 VideoPoet 作者:视频模型技术会收敛,LLM 将取代diffusion带来真正的视觉智能

专访 VideoPoet 作者:视频模型技术会收敛,LLM 将取代diffusion带来真正的视觉智能

在 AI 领域,近年来各个子领域都逐渐向 transformer 架构靠拢,只有文生图和文生视频一直以 diffusion + u-net 结构作为主流方向。diffusion 有更公开可用的开源模型,消耗的计算资源也更少。

来自主题: AI资讯
6255 点击    2024-01-06 12:27
将Transformer用于扩散模型,AI 生成视频达到照片级真实感

将Transformer用于扩散模型,AI 生成视频达到照片级真实感

将Transformer用于扩散模型,AI 生成视频达到照片级真实感

在视频生成场景中,用 Transformer 做扩散模型的去噪骨干已经被李飞飞等研究者证明行得通。这可算得上是 Transformer 在视频生成领域取得的一项重大成功。

来自主题: AI资讯
3571 点击    2023-12-13 15:49
五倍吞吐量,性能全面包围Transformer:新架构Mamba引爆AI圈

五倍吞吐量,性能全面包围Transformer:新架构Mamba引爆AI圈

五倍吞吐量,性能全面包围Transformer:新架构Mamba引爆AI圈

屹立不倒的 Transformer 迎来了一个强劲竞争者。在别的领域,如果你想形容一个东西非常重要,你可能将其形容为「撑起了某领域的半壁江山」。但在 AI 大模型领域,Transformer 架构不能这么形容,因为它几乎撑起了「整个江山」。

来自主题: AI资讯
6092 点击    2023-12-05 16:33
用上这个工具包,大模型推理性能加速达40倍

用上这个工具包,大模型推理性能加速达40倍

用上这个工具包,大模型推理性能加速达40倍

只需不到9行代码,就能在CPU上实现出色的LLM推理性能。英特尔® Extension for Transformer创新工具包中的LLM Runtime为诸多模型显著降低时延,且首个token和下一个token的推理速度分别提升多达40倍和2.68倍,还能满足更多场景应用需求。

来自主题: AI技术研报
3722 点击    2023-11-30 19:10
简化版Transformer来了,网友:年度论文

简化版Transformer来了,网友:年度论文

简化版Transformer来了,网友:年度论文

Transformer 架构可以说是近期深度学习领域许多成功案例背后的主力军。构建深度 Transformer 架构的一种简单方法是将多个相同的 Transformer 「块」(block)依次堆叠起来,但每个「块」都比较复杂,由许多不同的组件组成,需要以特定的排列组合才能实现良好的性能。

来自主题: AI技术研报
7055 点击    2023-11-28 14:44
单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法

单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法

单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法

3D 生成是 AI 视觉领域的研究热点之一。本文中,来自 Adobe 研究院和斯坦福大学等机构的研究者利用基于 transformer 的 3D 大型重建模型来对多视图扩散进行去噪,并提出了一种新颖的 3D 生成方法 DMV3D,实现了新的 SOTA 结果。

来自主题: AI技术研报
7100 点击    2023-11-28 10:35